Conseil référencement et veille SEO 

Google enrichit sa panoplie de rich snippets

richsnippets-712-8
Deux nouveautés pour les rich snippets Google :

-Le rich snippet Produit (prix, moyenne des notes et nombre d'évaluateurs) est disponible en France.
- Amélioration de l'outil de test des rich snippets : en plus de la soumission d'une URL, on peut maintenant fournir du code brut pour voir ce que Google est capable d'en extraire.

L'outil de test est disponible à l'adresse : https://www.google.com/webmasters/tools/richsnippets


Source : Abondance
Notre avis Edouard Guilhot a réalisé 2 conférences sur le sujet (1 au salon Becommerce et 1 sur e-commerce live) pour en conclure que les e-commerçants devraient intégrer du "communautaire" dans leur site e-commerce.

Cela commence par les rich snippets classiques, pour permettre aux internautes de voir ce que la communauté pense de vous et vos produits, c'est à dire de se faire un avis sur vos produits et services sans quitter votre site. Cela va jusqu'aux dates de vos événements, ou à la balise "Auteur" de Google+, stratégique si pour devenir un "expert". Il y aura par la suite d'autres fonctionnalités à rajouter dans votre site.

AdWords pour les vidéos

pubvideo-713-0
Avec AdWords pour les vidéos, il devient aussi facile d'acheter des publicités incrustées dans des vidéos (YouTube) que de créer des campagnes d'achat de mots clés AdWords.

L'utilisateur n'a qu'à télécharger son clip publicitaire depuis l'interface d'AdWords, définir une cible (mots clés utilisés dans le moteur, ou thèmes particuliers), et le prix maximal pour chaque publicité visionnée. Il ne paie que si la publicité est visionnée entièrement (c'est un peu l'équivalent du coût "au clic" d'AdWords). Des outils de suivi permettent de savoir combien de personnes ont regardé la publicité, combien ont cliqué, combien ont visionné une autre publicité de la même campagne, et combien se sont inscrits à la chaîne vidéo de l'annonceur.


Source : WebRankInfo
Notre avis

Si vous investissez dans 1 vidéo, pensez que celle-ci ne sera pas visible uniquement sur votre site, mais aussi sur les réseaux sociaux... et pourquoi pas dans une publicité ciblée sur YouTube, avec ses 800 millions de visiteurs unique chaque mois !
GoldenMarket peut vous aider à réfléchir en ce sens. La vidéo sur Internet fait partie de l'avenir. Ne vous laissez pas trop distancer.

Nouvel algorithme Google : Penguin

pingouin
Lancé il y a un peu plus d'un mois, ce nouvel algorithme de Google a pour objectif principal de lutter plus efficacement contre le spam, sous différentes formes (bourrage de mots clés, fermes de liens, contenu caché ou dupliqué...). Quelques critères pénalisants :

- Les titres : répétition systématique des mots clés de la page dans tous les titres h1, h2, h3... / bourrage de mots clés dans la balise title

- Le contenu : bourrage de mots clés, textes incohérents ou copiés de sources externes. Trop de publicités au-dessus de la ligne de flottaison.

- Les liens internes : trop de liens sortants vers des sites de mauvaise qualité / liens internes utilisant toujours la même ancre (si celle-ci est une expression clé)

- Les liens externes (backlinks) : trop de backlinks venant de pages hors sujet / trop de backlinks venant de signatures de forums / trop de backlinks venant de sites rédigés dans une langue étrangère / trop de backlinks venant de sites appartenant au même propriétaire et reliés entre eux (réseaux de sites trop visibles)
Source : WebRank Info
Notre avis

Rien de très nouveau en réalité, à part un affinage de critères qui existent déjà depuis longtemps chez Google, et qui visent à la pertinence des résultats. Concernant le contenu, vous n'avez donc rien à changer dans vos pratiques de rédaction ; continuez à écrire en bon français des informations de qualité et originales.

Concernant les liens, il sera peut-être nécessaire de vérifier qui sont vos partenaires, et comment sont conçus leurs sites web (même si la notion "site de mauvaise qualité" est assez floue). Pour les backlinks, nous avons devancé Google en effectuant il y a quelque temps une refonte de notre annuaire pour le rendre plus qualitatif 
(lien "Club GM" ou "Club Goldenmarket" dans les pieds-de-page des sites).

Google officialise le lancement de son moteur sémantique

knowledge.1
Google a officialisé le lancement de la couche sémantique de son moteur, sous le nom de Knowledge graph. Cette mise à jour permet au moteur de présenter aux internautes des informations déjà triées et formatées, sans que celui-ci n'ait à visiter des sites Internet pour les trouver. Le Knowledge graph se déploiera progressivement dans les pages de résultats de Google sous trois formes :

- Résumé et informations connexes : quelques lignes de texte et des photos permettant d'obtenir des informations dès la page de résultats (une date de naissance, la photo d'un événement...)
- Propositions de liens : quelques liens se rapportant à la requête, pour l'approfondir ou l'ouvrir sur des sujets connexes

Désambigüisation de la requête : dans les cas où l'expression tapée par l'internaute peut désigner des entités différentes (Opéra, le spectacle / Opéra, le navigateur web)


Source : Abondance
Notre avis Pour se faire une idée des potentialités d'un moteur de recherche sémantique, on peut tester par exemple Wolfram | Alpha, qui est le plus connu (et abouti) dans ce domaine. L'orientation sémantique permet au moteur de répondre directement à des requêtes relativement complexes, qu'on ne pourrait obtenir soi-même qu'en recoupant les informations tirées de différentes pages web. Wolfram est ainsi capable de fabriquer des tableaux et des courbes à partir de données de différentes sources. Google en est encore loin, même avec son Knowledge Graph, mais les premiers pas sont faits, quand Bing n'en est par exemple encore qu'à consolider sa couche sociale.

La balise auteur est de plus en plus importante

author
Aux Etats-Unis, une étude sur 1 million de requêtes a montré que 17% des résultats de recherche font apparaître la photo de leur auteur. En tout, c'est déjà plus de 15 000 auteurs qui sont ainsi mis en avant dans les SERPs.

Source : Abondance
Notre avis On commence également à voir apparaître quelques photos d'auteurs français dans les résultats de Google.fr (exemple ici). La création d'un profil Google+ à votre nom personnel (et non celui de votre société) est devenue prioritaire, ainsi que le réflexe de signer vos contenus.

Nous avons réalisé un tutoriel pour vous guider dans ce processus ; il est accessible librement ici : Tutoriel Google+ 

Bing propose un outil pour désavouer les backlinks

backlinks.1
Il y a quelques semaines, Google annonçait la prochaine disponibilité d'un outil permettant de révoquer des backlinks pour éviter le "negative SEO", c'est à dire la pollution volontaire d'un site par des concurrents, via la création de backlinks de mauvaise qualité.

Au final, c'est Bing qui propose la fonctionnalité le premier (dans les Bing webmaster tools).
Source : WebRank Info
Notre avis

Attention, les backlinks sont un des plus gros piliers du référencement naturel, il est forcément risqué d'en désavouer un ou plusieurs. Cette opération a surtout du sens dans le cadre du nouvel algorithme de Google, Pingouin, qui est plus strict sur la cohérence entre les backlinks et le contenu de votre site (si tous vos backlinks proviennent de sites n'ayant aucun rapport avec votre domaine d'activité, il y a un problème). Dans ce cas, il peut être intéressant de demander à Google de ne pas tenir compte de certains liens (que ceux-ci aient été créés par des concurrents malveillants, essayant de dégrader votre référencement naturel, ou simplement de liens depuis des commentaires de blogs, etc.)

Désavouer un backlink dans les Bing Webmaster Tools ne joue évidemment pas sur la prise en compte par Google. Puisqu'il a été annoncé officiellement, l'outil permettant de le faire chez Google devrait être bientôt disponible.

Bing fournit du contenu direct, grâce à l'encyclopédie Britannica

britannica
Pour suivre le mouvement de la "recherche sémantique", dont l'objectif est de présenter aux internautes des résultats construits dès l'étape du search (c'est à dire sans avoir à visiter des sites Internet), Bing s'associe à l'encyclopédie Britannica. Ainsi, sur certaines requêtes, le moteur n'affichera pas seulement une liste de pages web mais directement des informations tirées de l'encyclopédie (photo, titre, résumé).

Rappelons que Google expérimente en ce moment un procédé similaire, appelé "knowledge graph", mais sans se limiter à une seule source d'information de référence (voir newsletter du mois dernier).


Source : WebRank Info
Notre avis

En puisant ses informations dans l'encyclopédie Britannica, Bing évite une partie du problème lié aux sources. Le moteur propose en effet des liens sortants vers des articles de Britannica, dont la réputation et le sérieux assurent un haut niveau de fiabilité. Au contraire, Google agrège le contenu de différentes sources et propose des liens vers d'autres requêtes sur son propre moteur. Dans tous les cas, avec la recherche sémantique, la question de la fiabilité des sources d'information devient très sensible et pourrait être un sérieux facteur de différenciation d'un moteur à l'autre.

La fin des 10 résultats par page de Google

google
Sur certaines requêtes précises (souvent le nom d'un site web, ou son nom de domaine), Google n'affiche plus 10 résultats "naturels" en première page mais un peu moins (souvent 7). Selon le site SEOMoz, près de 20% des requêtes seraient concernées aujourd'hui.
Source : Abondance
Notre avis :
En réduisant ainsi le nombre de résultats "naturels", Google surexpose ses liens Adwords et fait augmenter leur taux de clic. A première vue, il s'agit donc d'une stratégie destinée à accroître les revenus publicitaires. Mais il est surprenant de constater que pour la première fois, Google est ouvertement prêt à sacrifier la pertinence au profit de la publicité, c'est à dire de réduire l'importance du référencement naturel par rapport aux Adwords. A moins qu'il n'y ait une autre vision stratégique encore peu perceptible derrière ce choix, cela ressemble à un changement de politique interne.

Si l'on tient compte, en parallèle des modifications induites par la mise en place du Knowledge graph, qui dispense l'internaute de sortir de Google pour obtenir une réponse à sa requête (voir revues de presse précédentes et Club Golden), on conçoit facilement que la façon de gérer la promotion d'un site web risque de changer profondément dans les temps qui viennent.

Google : un brevet pour piéger les référenceurs

Un brevet récent de Google aurait pour objectif de leurrer les référenceurs / webmasters sur le classement naturel de leurs sites, afin de repérer d'éventuelles pratiques douteuses. L'idée pour Google serait de modifier aléatoirement le classement d'une page dans les SERPs, pour voir si certaines actions sont entreprises en réponse par les référenceurs. Si c'est le cas, c'est vraisemblablement parce que ceux-ci n'ont pas de réelle stratégie de référencement cohérente (sur le long terme) mais se contentent de coller des rustines en fonction des résultats au jour le jour (et donc tentent de manipuler l'algorithme du moteur de recherche au lieu de se consacrer à créer du contenu pertinent). Si rien ne se passe malgré les positions fluctuantes, la vraie position finit par se stabiliser.

Ces périodes de test pourraient durer entre 20 et 70 jours.

Source : Abondance
Notre avis :
Rien ne dit que ce brevet est déjà utilisé par Google, ni même s'il le sera un jour. Toutefois des périodes de yoyo dans les SERPs sont parfois constatées, au cours de la vie d'un site web, sans qu'on parvienne à trouver une explication logique. Ce pourrait être lié.

Dans tous les cas, la conclusion est claire : la bonne stratégie n'est pas de tenter de décrypter les manipulations de l'algorithme de Google et d'y répondre au coup par coup, en fonction de l'évolution du classement des pages, mais de se tenir à une stratégie de création de contenu à forte valeur ajoutée. C'est le coeur de toutes les problématiques de référencement naturel.

Yahoo envisagerait de rompre avec Microsoft

149-yahoobing-701-0
Une nouvelle plutôt importante puisque le partenariat qui lie les deux sociétés pourrait être rompu par le nouveau PDG de Yahoo!, Scott Thompson, ex-président de Paypal.

En effet, depuis plusieurs années, Yahoo! utilisait le moteur Bing de Microsoft pour ses recherches et sa régie publicitaire. Cet accord ne donnerait plus satisfaction à Yahoo!


Source : Abondance
Notre avis:

A savoir également : si le partenariat avec Microsoft prend fin, Yahoo! pourrait se tourner vers Google pour son moteur de recherche et sa régie. Ce serait un très gros coup dur pour les activités online de Microsoft.

Changement d\'algorithme Google : vers la sémantique

149-semantique-702-0
Google devrait bientôt revoir son algorithme, avec une mise à jour qui pourrait toucher jusqu'à 20% des requêtes (à titre de comparaison, la mise à jour la plus importante jusqu'à présent était Panda, et concernait 12% des requêtes).

Cette mise à jour modifiera le type de réponses apportées par le moteur Google. En se concentrant sur le sens du contenu (ce que l'on nomme sémantique) plutôt que sur la densité des mots clés et des backlinks, le moteur devrait être capable de fournir d'emblée des réponses "intelligentes" plutôt que les traditionnelles listes de sites web.


Source : WebRankInfo
Notre avis:
On ne sait pas encore quel type de requêtes sera touché, ni comment sera amené ce gros changement (qui s'éloigne de plus en plus de la conception classique d'un moteur de recherche web, et s'approche de ce que propose par exemple le moteur Wolfram|Alpha), mais une chose est certaine, c'est que Google restera toujours à la recherche de la pertinence. Continuez donc d'écrire du contenu original à forte valeur ajoutée, c'est le meilleur moyen d'être prêt pour la mise à jour, quelle que puisse être sa forme.

Critères de référencement de Google Maps

149-maps-699-0
D'après une étude de la société Bizible, votre établissement sera d'autant mieux placé dans le bloc Google maps si :

- La catégorie de votre établissement est "plus large" que la catégorie recherchée par l'internaute (exemple, si la requête est "pizzeria" et que la catégorie de votre établissement est "restaurant")
- La catégorie recherchée par l'internaute apparaît dans le nom de votre établissement ("Rocky's pizzeria" pour une recherche de pizzeria)
- Vous avez au minimum 5 avis Google sur votre fiche établissement
- Le nom de la catégorie recherchée par l'internaute se trouve dans un avis Google ("pizzeria")
- Le nom de la catégorie recherchée par l'internaute se trouve dans la description de votre établissement


Source : SearchEngineLand
Notre avis :
Le référencement dans Google Maps est relativement négligé alors qu'il prend de plus en plus d'importance avec la croissance du web mobile et de la localisation. Nous conseillons à tous nos clients, quel que soit leur domaine d'activité, de créer une fiche Google Maps pour leur établissement (contactez votre chef de projet si vous souhaitez des précisions). Les informations apportées par cet article seront utiles pour en faire plus que le minimum vital.

12 à 13% de requêtes Google masquées en France

Depuis quelques semaines, Google crypte les requêtes des internautes connectés à son service, ce qui les rend inutilisables par les logiciels de suivi de statistiques (y compris Google Analytics).

Une étude de la société AtInternet estime qu'en France, 12 à 13% des requêtes sont ainsi devenues inconnaissables. Dans votre outil de suivi statistique, ces requêtes seront groupées sous le terme "not provided".


Source : AtInternet
Notre avis

Google justifie ce cryptage par la volonté de protéger la vie privée de ses utilisateurs. A noter qu'il est toujours possible de connaître le top 1000 des mots clés les plus apporteurs de trafic sur les 30 derniers jours, en passant par les Webmaster tools (mais on perd les informations de conversion).

Puisqu'il cumule toutes les requêtes des utilisateurs connectés à Google, le groupe « not provided » risque de devenir l'un des « mots clés » les plus fréquents dans les outils d'analyse. On peut toutefois estimer qu'il contient les mêmes mots clés, dans les mêmes proportions, que tous ceux qui sont restés visibles.

La CNIL s'inquiète des nouvelles CGU de Google

Google a récemment mis à jour les conditions d'utilisation (et de confidentialité) de tous ses services, dans un but annoncé de simplification. La Commission Informatique et Libertés demande un report de leur application, estimant que Google rend impossible la compréhension des données personnelles collectées et des droits d'accès pour chaque service.

Source : Clubic
Notre avis : Ceci intéresse surtout les utilisateurs des services Google mais cela aura peut-être des impacts sur les stats Google Analytics. Nous avons déjà constaté, lors du passage de Google Analytics en mode https, une perte d'information pour les utilisateurs connectés à un service Google. Par exemple, dans un peu moins de 10% des cas, il est devenu impossible de savoir par quels mots clés les utilisateurs connectés sont arrivés sur votre site.

Retour sur 1 année de Panda

A l'occasion du 1er anniversaire de l'algorythme Google Panda, dédié à lutter contre les fermes de contenu, le site SEO Book a publié une infographie expliquant ce qu'est précisément Google Panda et fournissant des conseils pour s'en sortir ou s'en prémunir.
Notre avis : Les sites que GoldenMarket référence n'ont globalement pas été touchés par les effets de Google Panda car depuis longtemps nous avions anticipé cette évolution. L'objectif de Panda était de lutter contre les fermes "de contenu" (à ne pas confondre avec les fermes "de liens"). Les fermes de contenu sont des sites multipliant les articles superficiels, à faible valeur ajoutée, dont l'existence n'est justifiée que pour gagner des places dans le classement de Google sur des requêtes générant un fort trafic. L'algorithme Panda a entraîné le déclassement de nombreux gros sites (notamment français) et d'énormes chutes de trafic. Or il est difficile de se faire une idée des critères utilisés pour distinguer une page superficielle d'une page pertinente. Depuis toujours, pour le référencement, nous préconisons à nos clients de penser en termes de stratégie globale, et non d'astuces ponctuelles. C'est une notion réellement cruciale et qui doit toujours guider vos choix éditoriaux. Les astuces n'aident que ponctuellement et empêchent de comprendre le réel fonctionnement de Google, qui est simplement de proposer le meilleur contenu possible aux internautes. Nous avons ainsi toujours recommandé la rédaction de pages originales et réellement utiles et intéressantes pour des humains, pas seulement des robots. En se tenant à cet objectif, les sites de nos clients ont toujours traversé sans dommages les mises à jour d'algorithme de Google.

Bing socialise ses résultats

Pour une recherche de personne, Bing affiche désormais des informations vers plusieurs services sociaux tels que Facebook ou LinkedIn, ainsi que des liens vers d'autres utilisateurs (c'est à dire les contacts "sociaux" de cette personne).

Source : Bing
Notre avis : Plus sérieux concurrent de Google pour ce qui est de la recherche web, Bing se retrouve pourtant devant une impasse : le moteur de Microsoft est obligé de suivre l'orientation sociale d'Internet, mais ne dispose pas d'un réseau de la taille de Google+. Ni de la transparence des informations que procurent ce dernier au moteur Google. Bing se tourne par défaut vers Facebook, mais le fait que les sociétés n'appartiennent pas au même groupe gênera fatalement l'échange de données. On voit ainsi se confirmer l'énorme avance stratégique de Google sur tous ses concurrents : contre Bing, il dispose d'un grand réseau social, et contre Facebook, du moteur de recherche le plus pertinent du monde

Plus de 4 mots clés en moyenne dans les requêtes moteur

Une étude de la société Chitika révèle que les requêtes tapées sur les principaux moteurs de recherche (Google, Yahoo, Bing, Ask...) comportent en moyenne 4 mots clés. Le moteur accueillant les requêtes les plus courtes (4,07 mots) est AOL, et celui accueillant les plus longues Ask.com (4,81).
A noter également que les requêtes ont tendance à s'allonger au fil des ans.
Notre avis : Qu'est-ce que cela signifie ? Que les internautes sont prêts à écrire quatre mots (et même plus !) pour avoir l'information qui les intéresse. Ceci dit, s'ils peuvent n'en écrire que deux, c'est mieux ! Un petit truc cependant : les internautes ont tendance à écrire dans les moteurs de recherche la question qu'ils se posent. Si dans le contenu de votre page, vous avez écrit cette question dans un sous-titre de votre page alors vous ressortirez en première position sur cette expression.

Google pénalise les pages proposant trop de publicité

Google met en place un algorithme pénalisant les pages proposant trop de publicités mal placées, c'est à dire obligeant le visiteur à scroller avant de trouver du contenu de qualité.

Pour cela, Google se base sur la ligne de flottaison (limite d'une page écran). Ainsi, les sites qui contiennent trop de publicité au-dessus de cette ligne, ou pas suffisamment de contenu original, risquent d'être pénalisés. Rien n'a en revanche été communiqué sur ce que signifient exactement ces "trop" ou "pas assez".

Source : Abondance
Notre avis : Comme d'habitude, Google privilégie la qualité au sens large, sans rien préciser d'autre. Il faudra donc, selon la méthode habituelle, se mettre à la place d'un visiteur humain et décider raisonnablement de ce qui est acceptable ou non. Pour se répérer, on pourra utiliser l'outil Browser size, pour vérifier où se situe la ligne de flottaison de votre site sous plusieurs résolutions d'écran et navigateurs : https://browsersize.googlelabs.com/

Obtenir les résultats Google les plus neutres possibles

Avec la personnalisation toujours plus poussée des résultats de recherche (intégration des réseaux sociaux, préférences du compte personnel, cookies...), il devient de plus en plus difficile d'obtenir des résultats "neutres" dans Google.

Un rédacteur du site SEOmoz a testé plusieurs méthodes pour obtenir les résultats les moins influencés par ses habitudes de navigation : la méthode la plus efficace est celle qui consiste à se déconnecter de son compte perso et empêcher le dépôt de cookies.

Source : SEOmoz
Notre avis : En biaisant le classement des résultats de recherche, la personnalisation a d'abord été un casse-tête pour de nombreuses agences de référencement, qui ne savaient plus comment mesurer l'impact de leurs travaux. Certaines ont tenté de baser leurs calculs sur ce type de résultats "neutres". Mais désormais, il devient tellement complexe de se "débrancher", qu'on peut considérer qu'en réalité, les résultats obtenus dans Google ne sont que très rarement neutres, et que calculer son positionnement de telle façon a de moins en moins de sens. La personnalisation, les réseaux sociaux et les habitudes de surf comptent pour une part non négligeable dans le classement, et doivent être intégrées dans les stratégies de référencement.

"Under the hood" : des informations sur le fonctionnement de Google

Google a lancé le site "Under the hood" (Sous le capot) qui propose plusieurs informations sur son fonctionnement ainsi que celui de ses algorithmes de pertinence. On y apprend entre autres que la maintenance des bases de données de l'index nécessite 1 million d'heures de calcul, que Google répond à plus d'1 milliard de requêtes chaque jour, et que plus de 1000 années / hommes ont été nécessaires pour développer l'algorithme de pertinence...

Questions

Je pose une question


Notre agence en vidéo

 
  • Témoignage Client : Prosocius Assainissement

    Témoignage Client : Prosocius Assainissement

  • Edouart GUILHOT Directeur Général Golden Market

    Edouart GUILHOT Directeur Général Golden Market

  • Vidéo Edouard Guilhot présentation GoldenMarket

    Vidéo Edouard Guilhot présentation GoldenMarket

Tous les deux mois, GoldenMarket organise des réunions pour tenir informés ses clients des actualités du WEB et les former à un module précis.

Rejoindre le Club Golden

Agence web certifiée Google partner

Tél. : 0611472404